Dada la variable aleatoria $X$ y la constante $a$, calcular los siguientes valores en términos de $\mu = E(X)$:
Usamos la linealidad del valor esperado.
$E(X + a)$ $$ \begin{align*} E(X + a) &= E(X) + E(a)\\ &= \mu + a \end{align*} $$
$E(aX)$ $$ \begin{align*} E(aX) &= a E(X)\\ &= a \mu \end{align*} $$
$E(X - \mu)$ $$ \begin{align*} E(X - \mu) &= E(X) - E(\mu)\\ &= \mu - \mu\\ &= 0 \end{align*} $$
$E(\mu X)$ $$ \begin{align*} E(\mu X) &= \mu E(X)\\ &= \mu^2 \end{align*} $$
Dada la variable aleatoria $X$ y la constante $a$, demostrar las siguientes identidades:
Usando la definición de varianza $Var(X) = E[(X - \mu)^2]$, con $\mu = E(X)$.
Y la linealidad del valor esperado.
$Var(X + a) = Var(X)$ $$ \begin{align*} Var(X + a) &= E[(X - E(X + a) + a)^2]\\ &= E[(X - E(X) - a + a)^2]\\ &= Var(X) \end{align*} $$
$Var(a X) = a^2 Var(X)$ $$ \begin{align*} Var(aX) &= E[(aX - E(aX))^2]\\ &= E[(aX - aE(X))^2]\\ &= E[a^2(X - E(X))^2]\\ &= a^2 Var(X) \end{align*} $$
$Var(X) = E(X^2 ) - E(X)^2$ $$ \begin{align*} Var(X) &= E[(X - E(X))^2]\\ &= E[X^2 + E(X)^2 - 2E(X)X]\\ &= E(X^2) + E(X)^2 - 2E(X)^2\\ &= E(X^2) - E(X)^2 \end{align*} $$
Dadas las variables independientes $X$ e $Y$ , mostrar que:
Sean las variables discretas independientes $X$ e $Y$ con espacios muestrales $\Omega_X$ y $\Omega_Y$, respectivamente.
Como son independientes, la probabilidad conjunta es $P(X=x, Y=y) = P(X=x)P(Y=y)$.
$E(X + Y) = E(X) + E(Y)$ $$ \begin{align*} E(X + Y) &= \sum_{x\in\Omega_X}\sum_{y\in\Omega_Y} (x+y) P(X=x, Y=y)\\ &= \sum_{x\in\Omega_X}\sum_{y\in\Omega_Y} (x+y) P(X=x)P(Y=y)\\ &= \sum_{x\in\Omega_X}\sum_{y\in\Omega_Y} x P(X=x)P(Y=y) + \sum_{x\in\Omega_X}\sum_{y\in\Omega_Y} y P(X=x)P(Y=y)\\ &= \sum_{x\in\Omega_X} x P(X=x) \sum_{y\in\Omega_Y}P(Y=y) + \sum_{y\in\Omega_Y} y P(Y=y) \sum_{x\in\Omega_X}P(X=x)\\ &= E(X) + E(Y) \end{align*} $$
$Var(X + Y) = Var(X) + Var(Y)$ $$ \begin{align*} Var(X + Y) &= E[(X + Y - E(X+Y))^2]\\ &= E[X^2 + E(X)^2 - 2XE(X) + Y^2 + E(Y)^2 - 2YE(Y) + 2XY + 2E(X)E(Y) - 2XE(Y) - 2E(X)Y]\\ &= E[X^2 + E(X)^2 - 2XE(X) + Y^2 + E(Y)^2 - 2YE(Y)]\\ &= E[(X - E(X))^2 + (Y - E(Y))^2]\\ &= Var(X) + Var(Y) \end{align*} $$
Para lo cual es necesario probar además que, para variables independientes $$ \begin{align*} E(XY) &= \\ &= \sum_{x\in\Omega_X}\sum_{y\in\Omega_Y} xy P(X=x, Y=y)\\ &= \sum_{x\in\Omega_X}\sum_{y\in\Omega_Y} xy P(X=x)(Y=y)\\ &= \sum_{x\in\Omega_X} xP(X=x) \sum_{y\in\Omega_Y} y(Y=y)\\ &= E(X)E(Y) \end{align*} $$
Mostrar que la distribución binomial está normalizada a la unidad sumando todos los términos de la función de distribución de probabilidad.
Sea la variable aleatoria $K\sim B(np)$.
Su función de masa de probabilidad es $$ P(K=k) = {n\choose k} p^k (1-p)^{n-k}, $$ con $k\le n$.
Luego, la suma sobre todos los resultados posibles es $$ \begin{align*} \sum_{k\le n} P(K=k) &= \sum_{k\le n} {n\choose k} p^k (1-p)^{n-k}\\ &= [p + (1-p)]^n\\ &= 1 \end{align*} $$
Los tests serológicos detectan la presencia de anticuerpos en la sangre.
Este artículo muestra una comparación de la sensitividad y especifidad de diez tipos de tests diferentes.
Los investigadores encontraron que, como referencia, los tests son 90% sensitivos y 95% específicos.
Suponiendo que solo el 10% de la población tiene anticuerpos covid-19, calcular la probabilidad que una persona con un test positivo efectivamente tenga anticuerpos.
90% sensitivos (True Positive).
95% específicos (True Negative).
Sean las variables aleatorias $T = \{+, -\}$, para el resultado del test, y $C = \{+, -\}$, para el estado de anticuerpos covid-19.
Tenemos que $P(T=+|C=+) = 0.9$, $P(T=-|C=-) = 0.95$ y $P(C=+) = 0.1$.
Luego usando regla de Bayes $$ \begin{align*} P(C=+|T=+) &= \frac{P(C=+,T=+)}{P(T=+)}\\ &= \frac{0.09}{0.135}\\ &= 0.\overline{6} \end{align*} $$
Donde hemos usado la propiedad de la probabilidad conjunta
La solución de Fermat al problema de la división justa de la bolsa es impráctica cuando quedan muchas rondas por jugar ya que implica contar todas las partidas que dan por ganador a uno de los dos jugadores.
Afortunadamente con simulaciones Monte Carlo es posible encontrar una solución aproximada.
Supongamos que un juego de 51 rondas es interrumpido en la ronda 25 y que Fermat ganó 15 rondas y Pascal 10.
Simular el resto de las rondas para decidir cuál jugador gana la partida.
Repetir este procedimiento 1000 veces para encontrar la división justa de la bolsa.
Simulación Monte Carlo del problema de división justa de Fermat DivisionJusta.
Juego de n_rondas=51 rondas, interrumpido en la ronda n_inter=25.
Fermat ganó F_win_inter=15 y Pascal ganó P_win_inter=10.
Repetir para n_ensemble=1000 realizaciones.
%run ./ej6.py
Variables Promedios F_win 27.984 P_win 23.016 Division 0.831 dtype: float64 Resultado exacto Division 0.837
Simular el lanzamiento de cinco dados y contar cuántas veces sale el número tres.
Repetir la operación 1000 veces y construir un histograma de frecuencia con el número de ocurrencias del número tres.
Comparar los datos simulados con una función de distribución binomial con parámetros $n$ y $p$ adecuados.
%run ./ej7.py
Simular el lanzamiento de dardos considerando que:
Un jugador torpe lanza dardos al azar dentro del anillo doble de la diana.
Calcular la probabilidad que un tiro individual dé en el blanco exterior.
Simular una corrida de 100 lanzamientos y contar cuántos dardos dan en el blanco exterior.
Simular 1000 corridas y construir un histograma de frecuencia.
Comparar con una distribución de Poisson.
Figure 1: Diana de dardos estándar.
Simular tiros de dardos dentro del círculo delimitado por el anillo doble de r_doble=170 mm de radio. Voy a suponer que la probabilidad de los tiros es uniforme dentro del círculo.
Calcular la probabilidad de que los tiros caigan en el blanco externa, el cual es un anillo con r_int=12.7 mm de radio interno y r_ext=31.8 mm de radio externo.
Simular (LanzarDardos) una corrida de n_lanzamientos=100 lanzamientos de dardos y realizar n_ensemble=1000 corridas.
Comparar con la distribución de Poisson (eventos raros). Siendo $\mu$ el número de éxitos promedio y $K$ variable aleatoria del número de éxitos.
%run ./ej8.py
Promedio simulacion 2.87 Promedio teorico 2.94
Simular dos variables aleatorias $X_1$ y $X_2$ que siguen distribuciones de Poisson con parámetros $\mu_1 = 1$ y $\mu_2 = 2$ respectivamente.
Calcular la variable $Y = X_1 + X_2$.
Repetir la simulación 1000 veces.
Graficar la distribución de la variable $Y$ y comparar con una distribución de probabilidad adecuada.
Simular variables aleatorias x1=poisson(mu=1) y x2=poisson(mu=2).
Calcular la variable y=x1+x2.
Realizar n_ensemble=1000 simulaciones.
Comparar con la distribución exacta de $Y$.
%run ./ej9.py
Simular una variable aleatoria Y que sigue una distribución de Poisson con parámetro $\mu = 10$.
Suponer que el resultado de la simulación es $Y = k$.
A continuación simular $k$ variables de Bernoulli $X_i$ con $i = 1, \dots, k$ con parámetro $p = 0.7$.
Calcular el valor de una nueva variable Z definida como $Z = \sum_{i=1}^k X_i$.
Repetir la simulación 1000 veces, construir un histograma de frecuencia de $Z$ y comparar con una distribución de Poisson.
Nota: usar la distribución exacta sin ajustar los datos.
%run ./ej10.py